(D)en digital verden – utopi eller dystopi?

Jeppe Fjeldgaard Qvist

2025-09-12

  • LaMDA og maskiner med bevidsthed?

Et klassificeringsproblem (falsk positiv).

Et klassificeringsproblem (falsk positiv).

Hvem bærer skylden: Maskinen eller Rafaela, der var “andenpilot”?

Et klassificeringsproblem (falsk positiv).

Al data, der ligger til grund for maskines klassificerings-evner bygger på data som mennesker har haft ansvaret for. Maskiner forholder sig ikke til andet end tal.

Et klassificeringsproblem (falsk positiv).

Derfor kan maskiner ikke være sexistiske eller racistiske. Men der eksisterer (stadig) systematisk sexisme og racisme og disse forhold vil være afspejlet i den data vi træner modeller på.

Dataindsamling og tabsfunktionen: den menneskelige vinkel

Hver gang AI bruges til at træffe en beslutning (alt fra klassifikation til et skak-træk) ligger der menneskebestemte afvejninger bag.

  • Datatype og -omfang: Ægte data eller ideel data (the unicorn)?
  • Definerede opgaver: Maskiner besejrer os, fordi vi beder dem om det. Det er ikke en skjult motivation (Luda, Tay: “thinking about you”).
  • Tabsfunktionen: målet vi bruger til at bestemme, hvor langt maskinen er fra at løse problemet. En grundlæggende menneskebestemt komponent.

Dataindsamling og tabsfunktionen: den menneskelige vinkel

Hver gang AI bruges til at træffe en beslutning (alt fra klassifikation til et skak-træk) ligger der menneskebestemte afvejninger bag.

“Du har en befolkning, hvor 0,5 procent får en alvorlig sygdom, og træner en model til at identificere dem. Modellen opnår hurtigt en høj træfsikkerhed på 99,5 procent, men er ikke i stand til at identificere en eneste af de syge. Hvad er der sket?” (fra Inga Strümke)

Dataindsamling og tabsfunktionen: den menneskelige vinkel

Hver gang AI bruges til at træffe en beslutning (alt fra klassifikation til et skak-træk) ligger der menneskebestemte afvejninger bag.

  • Udviklere bestemmer hvornår en model er færdig.
    • alt fra simpel ML og deep learning handler grundlæggende “bare” om kontinuerlig tilpasning af parametre indtil fejlen er så lille som muligt.
    • Universel approximation: tilnærmelse af den sande funktion og fordeling.
    • Det meste af fremgangen indenfor AI er takket være brute force og enorme mængde data, snarer end vi har formået at putte mere “intellegens” ind i modeller.

Privatliv (2)

  • Anonymous Video Analytics: Køn, Aldersgruppe, Attention time, Smile.
  • Tesla’s overvågning af gadebilledet. Hvorfor er det mere acceptabelt?

Privatliv (3)

  • Federated learning: Google opfandt en måde at trænie modeller på vores mobiler, uden hjemsendelse af persondata; kun parametre.
  • Formålsglidning: bedste eksempel er NSA
  • Techgiganterne der ved meget om os er primært Amerikanske; resten er primært Kinesiske.

Rettigheder

Correctional Offender Management Profiling for Alternative Sanctions (COMPAS)

It assesses not just risk but also nearly two dozen so-called “criminogenic needs” that relate to the major theories of criminality, including “criminal personality,” “social isolation,” “substance abuse” and “residence/stability.” Defendants are ranked low, medium or high risk in each category.

  • AI modeller er (typisk) udvikling af folk, der ikke er eksperter i substansfeltet. De er eksperter i AI og ML.
  • Neurale netværk er for kompliceret til at vi i dag, som mennesker kan se, hvad det er maskinen “ser”.
    • Subsymbolsk viden: Dataen mister sin betydning for mennesker.
      • Grænsetilfælde: Det lange hale problem.
      • En ting er at et system virker, men hvis vi ikke ved hvorfor det virker, bør vi så tage det i brug .

Diskrimination og gennemsigtighed (1)

  • Det er mennesker, der har adgang til hvilke kategorier en model har adgang til. (Sandsynligvis har afro- og/eller amerikaner, ikke været tilgængelig).

Diskrimination og gennemsigtighed (2)

Amazon Scraps Secret AI Recruiting Engine that Showed Biases Against Women

  • Endte som en mande-detector: Vi henter data fra en verden hvor hvide mænd har haft en priviligeret position.
  • Er modellen sexistisk, hvis den kun har “kendt” en (data)verden, hvor strukturel sexisme eksisterer?
  • Data kan ikke have bias. Data er bare.
  • Gennemsigtighed eller regulering?